(D)en digital verden – utopi eller dystopi?

Jeppe Fjeldgaard Qvist

2025-09-12

  • LaMDA og maskiner med bevidsthed?

Et klassificeringsproblem (falsk positiv).

Et klassificeringsproblem (falsk positiv).

Hvem bærer skylden: Maskinen eller Rafaela, der var “andenpilot”?

Et klassificeringsproblem (falsk positiv).

Al data, der ligger til grund for maskines klassificerings-evner bygger på data som mennesker har haft ansvaret for. Maskiner forholder sig ikke til andet end tal.

Et klassificeringsproblem (falsk positiv).

Derfor kan maskiner ikke være sexistiske eller racistiske. Men der eksisterer (stadig) systematisk sexisme og racisme og disse forhold vil være afspejlet i den data vi træner modeller på.

Dataindsamling og tabsfunktionen: den menneskelige vinkel

Hver gang AI bruges til at træffe en beslutning (alt fra klassifikation til et skak-træk) ligger der menneskebestemte afvejninger bag.

  • Datatype og -omfang: Ægte data eller ideel data (the unicorn)?
  • Definerede opgaver: Maskiner besejrer os, fordi vi beder dem om det. Det er ikke en skjult motivation (Luda, Tay: “thinking about you”).
  • Tabsfunktionen: målet vi bruger til at bestemme, hvor langt maskinen er fra at løse problemet. En grundlæggende menneskebestemt komponent.

Dataindsamling og tabsfunktionen: den menneskelige vinkel

Hver gang AI bruges til at træffe en beslutning (alt fra klassifikation til et skak-træk) ligger der menneskebestemte afvejninger bag.

“Du har en befolkning, hvor 0,5 procent får en alvorlig sygdom, og træner en model til at identificere dem. Modellen opnår hurtigt en høj træfsikkerhed på 99,5 procent, men er ikke i stand til at identificere en eneste af de syge. Hvad er der sket?” (fra Inga Strümke)

Dataindsamling og tabsfunktionen: den menneskelige vinkel

Hver gang AI bruges til at træffe en beslutning (alt fra klassifikation til et skak-træk) ligger der menneskebestemte afvejninger bag.

  • Udviklere bestemmer hvornår en model er færdig.
    • alt fra simpel ML og deep learning handler grundlæggende “bare” om kontinuerlig tilpasning af parametre indtil fejlen er så lille som muligt.
    • Universel approximation: tilnærmelse af den sande funktion og fordeling.
    • Det meste af fremgangen indenfor AI er takket være brute force og enorme mængde data, snarer end vi har formået at putte mere “intellegens” ind i modeller.

Privatliv (2)

  • Anonymous Video Analytics: Køn, Aldersgruppe, Attention time, Smile.
  • Tesla’s overvågning af gadebilledet. Hvorfor er det mere acceptabelt?

Privatliv (3)

  • Federated learning: Google opfandt en måde at trænie modeller på vores mobiler, uden hjemsendelse af persondata; kun parametre.
  • Formålsglidning: bedste eksempel er NSA
  • Techgiganterne der ved meget om os er primært Amerikanske; resten er primært Kinesiske.

Diskrimination og gennemsigtighed (1)

  • Det er mennesker, der har adgang til hvilke kategorier en model har adgang til. (Sandsynligvis har afro- og/eller amerikaner, ikke været tilgængelig).

Hvad er vi villige til at acceptere i et digitalt samfund?

  1. Har vi tænkt over hvad vi vil og ikke vil være med til?

  2. Opvejet fordele og ulemper …

    • Kan vi overhovedet tage stilling til disse spørgsmål på forhånd eller er vi nødt til at diskutere det løbende?
  3. Hvem beslutter hvad vi vil og ikke vil? Og hvad er deres motivation for at beslutte som de gør?

    • …Befolkningens ve og vel?
    • …Personlig fortjeneste?
    • …Magt?
  4. Hvad er alternativet?

    • Kan vi sige fra, hvad ville der ske og hvordan gør vi?

Det vi kan sige er, at vi altid vil være på bagkant af teknologien. Vi skal derfor kunne forholde os kritisk til teknologi med kort varsel-

I den ideelle verden:

  1. … er der gennemsigtighed omkring beslutningsprocesser og aktørers roller
  2. … er der plads til demokratisk proces
  3. … er det bl.a. jer og jeres fagfæller, mere end nogen anden der skal være med til at finde svarene …

Grupperdannelse og præsentation af mini-projekter